AI 绘画 | Stable Diffusion 视频数字人

本篇文章教会你如何利用Stable Diffusion WEB UI,使用一个人物图片转换成为一个口播视频。本篇内容的教程以WINDOWS系统为例,教你如何安装使用。先看视频效果彭于晏图片生成口播视频。

stable-diffusion-webui的逐步部署教程

本文主要介绍了stable-diffusion-webui的逐步部署教程,希望能对使用Stable Diffusion的同学们有所帮助。文章目录1. 前言2. 逐步部署教程 2.1 创建Python环境 2.2 安装依赖库 2.3 运行代码

Stable Diffusion XL webui tagger 插件Linux安装(保姆级教程)

为了使SD能生成我们想要的图像效果,往往需要对SD模型进行微调,但其权重参数太多,如果是用更新全部参数的方法来微调,会耗费大量的计算资源。那么可不可以仅需少量计算资源,对模型进行微调,也有不错的效果呢?答案是肯定的,那就是:基于LoRA对其进行微调!本文写作动机:想自己训练LoRA,需要对训练数据进

AI 绘画Stable Diffusion 研究(十七)SD lora 详解(上)

LORA是一种在消耗更少内存的情况下,加速大型模型训练的训练方法,在stable diffusion中它允许使用低阶适应技术来快速微调扩散模型。需要注意的是,每个 LORA 模型对输出图像的权重设置是非常重要的。权重设置越大,对画面的影响因素就越浅。因此我们在这里将重点介绍 LORA 模型相关的知识

Stable Diffusion Webui在Linux服务器第一次运行不能连接huggingface

由于网络原因, hugging face在国内无法访问, 所以出现了该错误, 笔者所使用的Linux服务器不能使用非常的上网手段, 通过在本地windows运行stable-diffusion-webui并进行排查, 找到了问题所在。Linux服务器的~/.cache/huggingface/hub

Stable Diffusion系列(一):古早显卡上最新版 WebUI 安装及简单操作

该插件的原理是在调用和完成时分别向原始模型中注入(inject)和删除(restore)时间步模块从而生成连续变化的GIF,由于整体版本过老,直接执行该插件会报没有insert和pop方法的错误,因此需要在。首先在模型左侧选择Stable Diffusion模型及其对应VAE,然后输入正向和反向提示

Stable-Diffusion-WebUI 搭建使用教程

Stable-Diffusion-Webui 是一个基于Gradio库的Stable Diffusion的浏览器界面,可以说是AI绘画集合体,支持目前主流的开源AI绘画模型,例如 NovelAi/Stable Diffusion,有了它,我们就可以很方便地配置和生成AI绘画作品,并且进行各种精细地配

AI 绘画 | Stable Diffusion 视频生成重绘

本篇文章教会你如何使用Stable Diffusion WEB UI,实现视频的人物,或是动物重绘,可以更换人物或者动物,也可以有真实变为二次元。原视频和Ai视频画面合并。

配置 Stable Diffusion WebUI 纯 CPU 或核显绘画

我笔记本电脑的独显上半年的时候烧掉了,所以只能用 CPU,折腾了一下午总算给配置出来了。我这里用的官方 Python,网上很多教程用 Anaconda(也是一种 Python 发行版),其实没必要。最开始我就跟着用 Anaconda,挺折腾的,到后面发现只是需要 Python 而已,那整体简单多了。

Fooocus入坑指南-对SDXL支持最棒的UI工具

Fooocus是一款图像生成软件。从Stable Diffusion中学到的,该软件是离线的、开源的,而且免费的。从Midjourney中学到的,不需要手动调整,用户只需专注于提示和图像。Fooocus包含并自动化了许多内部优化和质量改进。用户可以忘记所有那些复杂的技术参数,只需享受人与计算机之间的

stable diffusion webui 登录接口(login)api接口调用(使用C#)

2、添加以下代码到你的项目中,直接运行即可,请求的是本地运行的接口,如下的【http://127.0.0.1:7860/sdapi/v1/login】,需要替换为读者自己的路径。如下图所示的方式,进行开启即可。注:这里只设置–api-auth的密码是无效了,login接口,是用于ui页面登录的,原有

AI 绘画 | Stable Diffusion 去除照片马赛克

本篇文章教会你如何让几秒钟去除图片中的马赛克,还是依托于Stable Diffusion WEB UI的强大扩展插件ControlNet,快来学起来吧,如果有问题请在评论区留言。

AI 绘画 | Stable Diffusion 高清修复、细节优化

安装后在图生图面板网页最下方的脚本选择框里,选择SD Upscale 就能展开SD Upscale 参数设置。选择SD Upscale 后,出现以下参数设置的面板。只有三个参数设置,一是分块重叠像素宽度、一个是放大倍数、一个是放大算法。放大倍数和放大算法上面已经说过,这里主要解释下什么是分块重叠像素

【AI进阶】Stable Diffusion安装部署

我这里用了科学上网,启动后它会自己下载一些包,包括生成模型,有的时候下载失败,连接超时,关掉后重新打开即可。所有的包依赖以及生成模型下载完成之后,查看自己的电脑配置查看显存,显存如果过低运行会报错,需要修改启动配置。,能够从文本描述中生成详细的图像。因为sd是在3.10的版本进行开发测试的,其他版本

Stable diffusion ai图像生成本地部署教程

点击"Settings",左侧点击"User interface"界面,在界面里最下方的"Localization (requires restart)“,选择"Chinese-All"或者"Chinese-English”然后使用git 克隆项目,在控制台中输入:git clone https:/

Stable Diffusion WebUI使用AnimateDiff插件生成动画

AnimateDiff 可以针对各个模型生成的图片,一键生成对应的动图。

AI 绘画 | Stable Diffusion 涂鸦功能与局部重绘

在 StableDiffusion图生图的面板里,除了图生图(img2img)选卡外,还有局部重绘(Inpaint),涂鸦(Sketch),涂鸦重绘(Inpaint Sketch),上传重绘蒙版(Inpaint Uplaod)、批量处理(Batch)等功能。下面我就讲解一下这些功能的作用和使用。

【腾讯云 HAI域探秘】StableDiffusionWebUI 让我找到了宫崎骏动漫里的夏天

高性能应用服务(Hyper Application Inventor,HAI)是一款`面向 AI 和科学计算的 GPU/NPU 应用服务`产品,提供即插即用的强大算力和常见环境。它可以帮助中小企业和开发者快速部署语言模型、AI 绘图、数据科学等高性能应用,原生集成配套的开发工具和组件,大大提升应用层

Stable Diffusion XL webui Linux服务器部署(保姆级教程)

由于网络原因,stable-diffusion-webui所依赖的5个仓库(stablediffusion、generative-models、k-diffusion、BLIP),基本不可能一次性自动下载下来,所以最好自己事先克隆好。这里说明一下:因为stable-diffusion-webui会把

揭秘AI魔法绘画:Stable Diffusion引领无限创意新纪元

本书以实际操作为导向,详细讲解基于Stable Diffusion进行AI绘画的完整学习路线,包括绘画技巧、图片生成、提示词编写、ControlNet插件、模型训练等,同时搭配了丰富的实际操作案例,在附录中还提供了常用提示词中英文对照表,涉及画质、环境、风格、人物、发型、表情、表情符号、眼睛、服装、

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈